时政
财经
科技
虚拟货币
其他
登录
#Sam Altman
关注
howie.serious
17小时前
chatgpt,一个单纯的工具 app,现在已经初步具备“聊天”app 的影子了🤣 侧边栏有专门的“群聊”模块。不小心就会有很多个群聊。 用户页面也有了。 再加个发动态、关注和私信功能,或许也不是不可能(尤其考虑到 sam altman 和 elon musk 不太对付)
#ChatGPT
#群聊功能
#社交化
#Sam Altman
#Elon Musk
分享
评论 0
0
北火
5天前
看了 All Things AI 对 Sam Altman 的采访,可以肯定的是他撒谎了。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#Sam Altman
#All Things AI
#采访
#撒谎
#负面
分享
评论 0
0
Bruce
1周前
感觉现在半个硅谷都在怀疑Sam OpenAI的潜在盈利能力开始受到强烈质疑 大家开始重新审视谷歌和特斯拉 当然还有苹果 最后卖铲子的人永赚
OpenAI与微软关系紧张,或将发起反垄断投诉· 29 条信息
#Sam Altman
#OpenAI盈利质疑
#硅谷反思
#谷歌特斯拉苹果审视
#卖铲子永赚
分享
评论 0
0
向阳乔木
1周前
OpenAI政变揭秘,基于Ilya Sutskever法院证词。 Ilya Sutskever虽幼稚,但挑拨的Mira也不像好人。 原始52页的PDF下载 开始吃瓜 去年OpenAI董事会“政变”毫无征兆地开除了CEO萨姆·奥特曼(Sam Altman),几天后又戏剧性地请他回来。 这中间到底发生了什么? 我们都听了无数个版本:有说是为了“AGI安全”的理念之争,有说是纯粹的权力斗争,还有说是竞争对手的阴谋。 但这些都是猜的。 今天,咱们不猜了。 我搞到了一份关键文件:伊尔亚·萨茨克维(Ilya Sutskever)的法庭证词。 伊尔亚是谁? 他是OpenAI的联合创始人和前首席科学家,也是当初投票开除萨姆·奥特曼的核心董事之一 。 这份文件,就是他在“马斯克诉奥特曼”一案中,于2025年10月1日提供的长达几百页的宣誓证词 。 花了一整天时间,把这份“高度机密”的证词翻了个底朝天。 可以负责任地告诉你:真相,远比我们想象的更草率,也更惊悚。 这根本不是一个关于“AI安全”的神圣故事。 “一份神秘备忘录、一次长达一年的等待、一场基于‘二手信息’的冲动、和一个‘菜鸟’董事会差点把公司卖给竞争对手”的荒诞故事。 准备好了吗?我们开扒。 第一章:“消失的备忘录”与一年的“潜伏” 你还记得吗?当时所有人都在问:伊尔亚到底给董事会看了什么,能让他们下这么大的决心? 证词里,伊尔亚自己承认了。 他准备了一份长达52页的备忘录,代号“Exhibit 19” 。 这份备忘录不是他主动要写的,而是当时董事会的几位“独立董事”——亚当·德安吉洛(Adam D'Angelo)、海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)要求他准备的 。 这份备忘录的核心指控是什么?伊尔亚在法庭上被逼着念了出来: “萨姆表现出了一贯的说谎模式、破坏他的高管团队、并挑拨他的高管们互相对抗。” 够狠吧? 伊尔亚当时的态度非常明确。律师问他,你希望董事会采取什么行动? 他的回答只有一个词:“解雇(Termination)。” 更有意思的是,他为了准备这个“大招”,保密工作做到了极致。 首先,他根本没把这份备忘录发给整个董事会,他刻意绕过了萨姆·奥特曼。 为什么?伊尔亚的原话是: “因为我感觉,如果他(萨姆)意识到了这些讨论,他会想办法让这些讨论‘消失’。” (你品品“make them disappear”这个词,是不是有点黑帮片的感觉了?) 其次,他发送这份备忘录的方式是——“使用一种‘阅后即焚’的电子邮件” 。 他太怕了。他怕备忘录泄露。 他还写了另一份类似的、批评格雷格·布罗克曼(Greg Brockman)的备忘录,同样也是秘密发送的。 看到这里,你是不是觉得伊尔亚为了“AI安全”真是忍辱负重、用心良苦? 别急。 律师紧接着问了一个问题,彻底撕开了“理念之争”的温情面纱。 律师拿出了《华尔街日报》的一篇报道(Exhibit 20),报道里有句话是这么写的: “萨茨克维一直在等待一个时机,等待董事会的“动态”,允许奥特曼被替换掉。” 律师问伊尔亚:“这是真的吗?” 伊尔亚回答:“是的。” 律师追问:“你在等什么‘动态’?” 伊尔亚说:“等着董事会的大多数人,不再是‘明显和萨姆友好’的人。” 这还没完。 律师问:“你考虑这件事(换掉萨姆)多久了?” 伊尔亚的回答,让我倒吸一口凉气: “至少一年了。” 你发现了吗? 这根本不是什么突发事件,也不是什么理念的突然冲突。这是伊尔亚策划了至少一年的“倒萨”计划。 他一直在等,等到董事会里“萨姆的人”滚蛋 ,等到他有了可乘之机。 那么,他那份52页的“重磅炸弹”备忘录,里面的“证据”就一定很扎实吧? 呵呵。 第二章:致命的“二手信息”与“我没想过” 这是整份证词里,我个人认为最最关键的部分。它揭示了这场“政变”的基石是多么松散。 伊尔亚在备忘录里写了很多“黑料”,比如: 萨姆·奥特曼当年从YC(Y Combinator)被赶走,也是因为“制造混乱、挑拨离间” 。 格雷格·布罗克曼(Greg Brockman)“基本上也是从Stripe被开除的” 。 萨姆在GPT-4 Turbo的安全问题上对高管(比如Jason Kwon)撒了谎 。 这些指控,随便一个都能毁掉一个CEO。 律师开始发问了:你是怎么知道这些事的?你的信息来源是谁? 你猜怎么着? 证词显示,伊尔亚几乎所有关键的“黑料”,都来自同一个人——米拉·穆拉蒂(Mira Murati)。 萨姆在YC的黑料?“是米拉告诉我的。” 格雷格在Stripe的黑料?“米拉告诉我的。” 萨姆撒谎的截图证据?“都是从米拉那里拿来的。” 萨姆挑拨米拉和丹妮拉(Daniela Amodei)? “米拉告诉我的。” (多说一句,伊尔亚在备忘录里用来指控萨姆“撒谎”的截图 ,绝大多数也是米拉·穆拉蒂提供的 ) 好,那你拿到这些“二手信息”后,你交叉验证了吗? 律师开始连环追问: 问:“关于YC的事,你和布拉德·莱特凯普谈过吗?”(米拉说是布拉德告诉她的) 答:“没有。” 问:“关于格雷格被Stripe开除的事,你找格雷格本人核实过吗?” 答:“没有。” 问:“为什么不呢?” 答:“没想过。” 问:“关于萨姆撒谎的事,你和杰森·权(Jason Kwon)谈过吗?” 答:“没有。” 看到这里,我整个人都懵了。 你是一家万亿美金估值公司的首席科学家,你正准备干掉CEO,你的理由是“他爱撒谎、挑拨离间”。 而你用来证明他撒谎的所有证据,全部来自另一个人(米拉)的转述,而你一次都没有去和当事人核实过?! 你只是“完全相信(fully believed)米拉告诉我的信息”。 这就是这场政变的全部真相:它建立在未经核实的“二手信息”和“办公室传言”之上。 这就像什么? 就像你听隔壁老王说你老婆出轨了,你回家二话不说就提了离婚,连问都没问一句。 更讽刺的是,在律师的反复盘问下,伊尔亚自己也反思了。 他说,他现在回头看,才意识到了“一手知识”的“极端重要性”。 他说,他现在认为: “二手知识可以很有用,但它更像是一个‘邀请’,邀请你去做进一步的调查。” (可惜,这份觉悟来得太晚了。) 第三章:“菜鸟”董事会与“卖身”Anthropic 好,现在伊尔亚拿着这份“二手信息”备忘录,找到了几个独立董事。 这几个董事,靠谱吗? 伊尔亚在证词里,给了我们一个非常负面的描绘。 1. 董事会“非常匆忙(rushed)” 伊尔亚反思整个“开除”流程时,第一个蹦出来的词就是“匆忙” 。 为什么这么匆忙? 2. 董事会“缺乏经验” 伊尔亚的原话是:“我认为这很匆忙,因为董事会太没经验了。” 3. 董事会“极其疏离” 这些独立董事,比如海伦·托纳和塔莎·麦考利,伊尔亚自己都“不常和她们互动” 。 她们会来OpenAI办公室吗?“偶尔来(From time to time)” 。 多久来一次?“和开董事会一样频繁” 。(翻译一下:不开会就不来) 她们每次都来现场吗?“不,也是‘偶尔来’”。 伊尔亚甚至都不知道塔莎住在哪,只知道海伦“可能”部分时间住在华盛顿。 你敢信吗?这就是决定OpenAI命运的董事会。 一群对公司运营“很难评估他们熟不熟” 、一年也见不到几次的“兼职”董事。 现在,高潮来了。 这群“没经验”的董事,在伊尔亚的“二手信息”鼓动下,开除了萨姆。 然后,你猜他们干了什么? 他们立刻开始和OpenAI最大的竞争对手——Anthropic——谈“合并”! 这在以前只是个传闻,现在伊尔亚在法庭上亲口证实了。 就在开除萨姆·奥特曼的第二天(周六或周日),董事会就和Anthropic的领导层开了个电话会。 提案是什么? “Anthropic与OpenAI合并,并接管其领导权。” 谁在电话上?伊尔亚说,他记得有Anthropic的CEO 达里奥·阿莫迪(Dario Amodei)和丹妮拉·阿莫迪(Daniela Amodei)。 伊尔亚是什么反应?他当场就炸了。 他说:“我对此非常不高兴。” “我真的不想OpenAI和Anthropic合并。” 那其他董事会成员呢? 伊尔亚说:“他们(其他董事)的支持度高多了(a lot more supportive)。” 基本上,“至少没有人不支持” 。 谁最支持? “我的印象是,海伦(Toner)是最支持的。” 我的天。 我们必须停下来梳理一下海伦·托纳和Anthropic的关系: 海伦·托纳来自“Open Philanthropy” 。 这个机构与霍尔顿·卡诺夫斯基(Holden Karnofsky)有关 。 霍尔顿·卡诺夫斯基是丹妮拉·阿莫迪的丈夫 (证词里律师搞错了,伊尔亚纠正了,是夫妻)。 丹妮拉·阿莫迪和达里奥·阿莫迪(Anthropic CEO)是兄妹 ,两人都是Anthropic的创始人 。 伊尔亚也证实了海伦在2023年10月发过一篇“批评OpenAI、赞扬Anthropic”的文章 。 伊尔亚当时就觉得这“非常奇怪” ,并且“显然不合适” ,他还因此和萨姆讨论过,支持把海伦踢出董事会。 现在你把线索串起来了吗? 一个和竞争对手(Anthropic)关系密切的董事(海伦)。 利用一个基于“二手信息”的备忘录,说服了一群“没经验”的董事,开除了CEO。 然后立刻提议把公司卖给这家竞争对手。 这哪里是“AI安全”?这简直是《纸牌屋》和《商战》的混合体。 那这个“合并”为什么最后没成呢? 伊尔亚的回答是:“我记得是Anthropic那边提出了一些现实的障碍(practical obstacles),所以提案没有继续下去。” 你没看错。 不是OpenAI董事会悬崖勒马,是Anthropic自己最后“怂了”。 第四章:“使命”的困惑与“韭菜”的觉醒 整场闹剧,都打着“保护OpenAI使命”的旗号。 那么,这个“使命”到底是什么? 在萨姆被开除后,OpenAI的高管团队急了,他们和董事会开会,警告说:“如果萨姆不回来,OpenAI就会被摧毁,这是违背OpenAI使命的。” 你猜海伦·托纳是怎么回答的? 伊尔亚在证词中回忆,海伦·托纳(就是那个最支持卖给Anthropic的董事)说: “不,(允许公司被摧毁)这也符合使命。” 伊尔亚说,他当场就觉得这个答案“绝对是‘不’” 。 (我猜,这可能是伊尔亚开始后悔的第一个瞬间。他发现自己被“盟友”背刺了,他只是想换掉萨姆,而他的“盟友”想的是,如果搞不定,那就把OpenAI整个“献祭”掉。) 另一个能反映伊尔亚和公司脱节的细节,是他对员工反应的预判。 那篇《华尔街日报》报道说,伊尔亚“曾以为OpenAI的员工们会欢呼” 。 伊尔亚在法庭上否认了。 但他接下来说的话,更暴露问题。他说: “我没指望他们欢呼,但我以为他们不会有什么强烈的感觉(not feel strongly either way)。” …… 大哥,你开掉的是公司的创始人和CEO,你居然以为多名员工会“没啥感觉”? 这说明什么?说明伊尔亚,这个首席科学家,可能真的活在自己的“象牙塔”里。 他根本不明白萨姆·奥特曼对于整个公司的凝聚力意味着什么。 他天真地以为,换个CEO就像换个零件一样简单。 结果,他等来的是700多名员工联名签署“最后通牒”:萨姆不回来,我们就集体辞职。 最后的讽刺:谁在付律师费? 故事的结局我们都知道了。伊尔亚后悔了,萨姆回来了,那些“没经验”的董事们被踢走了。 伊尔亚本人呢? 他于2024年5月左右离开了OpenAI,创办了自己的新公司“Safe Superintelligence”。 但他和OpenAI的关系,可没那么简单。 律师在证词的最后,问了几个关于“钱”的敏感问题: 问:“你现在是否还对OpenAI持有经济利益?” 答:“是的。” 问:“自你离开OpenAI后,你这份利益的‘价值’是增加了还是减少了?” 答:“增加了。” (至于具体值多少钱,他的律师强烈反对并指示他不要回答 。) 问:“谁在为你今天的作证支付律师费?” 答:“我不确定……但我猜……” 问:“你觉得OpenAI在付钱吗?” 答:“我认为这(OpenAI付钱)是很有可能的。” 你品,你仔细品。 他策划了一场长达一年的“政变” ,差点把公司搞垮 ,差点把公司“卖”给竞争对手。 最后,他失败了,辞职了 但他手里的OpenAI股权反而更值钱了。 而且,今天他坐在这里,回忆自己当初是怎么“背刺”公司的,而这家公司,还得替他支付高昂的律师费。 魔幻吗? 这就是伊尔亚证词告诉我们的全部故事。 这里没有AI圣徒,没有理念之争。 只有人性、误判、轻信、冲动,以及一个“没经验” 的董事会所能犯下的、几乎所有最糟糕的错误。 资料来源 文件:伊尔亚·萨茨克维(ILYA SUTSKEVER)的 videotaped 证词。 案件:马斯克(MUSK)诉奥特曼(ALTMAN) 案件编号:Case No. 4:24-cv-04722-YGR 法庭:美国加州北区地方法院,奥克兰分部。 日期:2025年10月1日
#OpenAI政变
#Ilya Sutskever证词
#Sam Altman
#Mira Murati
#董事会
分享
评论 0
0
大宇
1周前
《今日精选必读》 $GIGGLE 研究/复盘等2篇 Perp DEX 行业深度研报 Hyperliquid 28年涨到2000 Sam Altman访谈:GPT-6将实现质的飞跃 港股数字人第一股 大宇投资备忘(日更):讨论 $hype $aster $zec $icp 等多个币种的走势与分析 关注免费频道,每日推送
#GIGGLE研究
#perp dex
#Hyperliquid
#Sam Altman
#GPT-6
#港股数字人
#大宇投资
#HYPE
分享
评论 0
0
勃勃OC
1周前
Sam Altman 刚刚表示,算力过剩几乎肯定会发生。 “算力过剩肯定会出现,不管是 2 到 3 年后,还是 5 到 6 年后,我现在没法告诉你,但它迟早会发生,而且很可能会在过程中出现不止一次。” 他解释了背后的驱动因素: 如果廉价能源大规模落地,目前那些长期产能与电力合同可能会变得非常糟糕,一些建设方会因此受损。 如果单位智能成本继续以非常快的速度下降(历史上约 40x/年),那么需求将激增,但之后可能会过度扩张,最终出现产能过剩。 在极端情况下,如果模型效率高到能在笔记本本地运行强大的 AI 助手,大量集中式算力建设可能会被闲置。
#Sam Altman
#算力过剩
#AI
#廉价能源
#产能过剩
分享
评论 0
0
Orange AI
1周前
Sam 没有任何 OpenAI 的股权 但是有 OpenAI 所收购和投资公司的股权
#Sam Altman
#OpenAI
#股权
#投资
#收购
分享
评论 0
0
Orange AI
2周前
在 YouTube 刷到 Sam Altman 在 YC 的时候分享一个分享 主题是《创业公司如何成功》,感觉太有道理了。 整理了一些核心观点: 关于趋势判断 最重要的事情,不是只看现在的市场规模,要看哪个市场在指数级增长。 真趋势和假趋势的区别:真趋势是早期用户痴迷使用并到处推荐,假趋势是被买回家但没人用。iPhone 是真趋势,2018年的VR是假趋势。 抓住平台转移的机会。当年移动应用起来的时候,初创公司调整战略比大公司快太多了。 关于产品 产品是80%的成功。是做出让用户自发推荐的东西,这比什么都重要。 初创公司最好的方向是非共识,看起来不太行,但实际却很行。因为大公司内部"一个人说不行"就能杀死项目。 在快速变化的市场里,初创公司的速度优势才能发挥出来。 关于团队 至少一个创始人要能感染别人,负责招人、卖货、搞PR、拿钱。还得有远大愿景,不然招不到顶尖人才。 团队要有这些特质:乐观、爱想点子、"我们能搞定"的精神、偏向行动。 缺乏经验有时候反而是优势。 最后一点:创始人的核心工作就是保持势头。一旦失去,很难找回来。 这是十分钟中文播客版 萨姆·奥特曼:创业公司如何获得成功 - ListenHub
#Sam Altman
#创业公司
#指数级增长
#产品自发推荐
#保持势头
分享
评论 0
0
向阳乔木
2周前
由Claude 4.5 创作: AI风云人物之Ilya Sutskever ,那个解雇了Sam Altman的男人 ## 序章:一场无声的政变 2023年11月17日的硅谷,周五下午的阳光还算温暖。 就在大多数科技公司员工准备开始周末时,一则消息如同地震波般撕裂了整个科技圈:萨姆·奥特曼。 那个永远穿着灰色连帽衫、在推特上预言AGI即将到来的男人,那个刚刚让ChatGPT成为史上增长最快应用的CEO——被自己公司的董事会解雇了。 官方声明只有一句话:"在与董事会的沟通中不够坦诚"。这种含糊其辞的措辞,在硅谷的历史上通常意味着背后有更深的故事。 果然,几小时内,各种版本的内幕开始在Signal群组和私密晚宴上流传。 在这场风暴的中心,站着一个很少出现在聚光灯下的人:伊尔亚·苏茨克维。如果你在旧金山的咖啡馆里见过他,你可能不会认出这就是那个改变了人工智能历史进程的科学家。他不像奥特曼那样善于演讲,也不像马斯克那样喜欢制造话题。但在AI研究者的圈子里,他的名字几乎等同于"深度学习革命"本身。 这一次,正是他亲自给奥特曼打了那通电话。据说,电话那头的奥特曼一开始以为这是个玩笑。但苏茨克维的声音里没有任何开玩笑的意思。在公司内部,他已经成为一个阵营的精神领袖——那些认为"我们走得太快了"的人。 这不是一场关于股权或办公室政治的争斗。这是两种世界观的碰撞:一边是奥特曼,相信快速迭代、相信市场的力量、相信人类会找到办法;另一边是苏茨克维,他看到了自己一手创造的技术正在以超出想象的速度进化,而这让他夜不能寐。 ## 第一章:被魔法吸引的心灵 1986年,在苏联的下诺夫哥罗德市(当时还叫高尔基市),一个犹太家庭迎来了他们的儿子伊尔亚。那是一个封闭的城市,外国人被禁止进入,因为那里有苏联的军工厂。在那个年代,拥有一台电脑几乎是不可想象的奢侈。 五岁那年,苏茨克维一家响应"回归故土"的号召,离开了苏联,搬到了耶路撒冷。这是一次彻底的文化休克。从说俄语到说希伯来语,从寒冷的俄罗斯到炎热的中东,小伊尔亚需要重新学习一切。但也正是在耶路撒冷,他第一次见到了电脑。 多年后,当被问起那一刻时,苏茨克维用了一个词:"魔法"。他说自己"完全被迷住了"。这不是一个孩子对新玩具的简单兴奋,而是一种近乎宗教般的着迷。他开始思考一些对五岁孩子来说异常深刻的问题:为什么人类会学习,而机器不会?意识到底是什么? 到了青少年时期,他的兴趣已经从编程延伸到了哲学。他会在深夜思考"存在的本质和意识……关于灵魂和智能"。他的同学们在踢足球时,他在想:如果我们能理解学习的本质,是不是就能创造出会思考的机器? 16岁时,全家再次搬迁,这次是加拿大。对大多数移民家庭来说,这又是一次艰难的适应。但对苏茨克维来说,这是命运的安排——因为多伦多大学里,有一个叫杰弗里·辛顿的教授,正在做一件所有人都认为不可能的事:让神经网络重新复活。 苏茨克维的学术天赋让他在11年级就被多伦多大学录取。但真正改变他人生的,是他决定去敲辛顿办公室的门那一刻。 那是一个普通的下午。辛顿正在办公室里工作,门突然被敲响了。门外站着一个年轻人,看起来还像个高中生。 "我想加入你的实验室。"苏茨克维说。 辛顿打量着这个不请自来的访客,说:"好的,你可以预约个时间。" 苏茨克维的回答成为了AI圈子里的一个传奇:"现在怎么样?" 这种近乎鲁莽的自信,本该让辛顿把他赶出去。但辛顿看到了这个年轻人眼中的某种东西——一种纯粹的、对知识的渴望。他决定给他一个机会。辛顿递给他一篇论文,让他读完后谈谈想法。 接下来发生的事让辛顿震惊了。苏茨克维不仅读懂了这篇论文,他的见解"是该领域的专家需要很长时间才能得出的结论"。辛顿后来回忆说,苏茨克维拥有一种罕见的天赋:"强大的直觉"。更令人惊讶的是,这位后来获得图灵奖的教授说:"我从他身上学到的比他从我身上学到的更多。" 这不是客套话。辛顿是认真的。 ## 第二章:不容辩驳的论点 2010年代初的人工智能研究,是一个被遗忘的角落。如果你在那时告诉别人你在研究神经网络,大多数人会礼貌地点点头,然后转移话题。主流是贝叶斯模型和支持向量机,神经网络被认为是上世纪80年代的失败实验。 在多伦多大学的一间实验室里,辛顿和他的几个学生成了这个领域最后的守望者。大多数研究者在做15到100个神经元的小模型,小心翼翼地调参数,期待着微小的改进。 但苏茨克维有一个完全不同的想法。 在一次实验室会议上,他提出了一个大胆的假设:"如果你的神经网络又深又大,那么它就可以被配置来解决一个困难的任务。" 这听起来简单,但在当时,这是异端邪说。整个领域的共识是:神经网络太大就会过拟合,太深就会无法训练。但苏茨克维有一种近乎固执的信念。他不是基于实验数据得出这个结论的——因为当时还没有人做过这样的实验。他是基于第一性原理推理出来的:如果大脑能工作,为什么大型神经网络不能? 辛顿后来总结得很精辟:"伊尔亚认为我们应该做,亚历克斯让它成功了,而我拿了诺贝尔奖。"这不是谦虚,而是对苏茨克维洞察力的真实评价。 但要证明这个想法,他们需要两样东西:海量的数据和强大的计算能力。数据有了——ImageNet,一个包含120万张标注图片的数据集。但计算能力呢?当时的CPU训练一个大模型需要几个月。 苏茨克维想到了GPU——那些本来是为游戏玩家设计的图形处理器。据说,他自己在网上订购了几块NVIDIA GTX 580显卡。当这些显卡送到实验室时,没人确定这个疯狂的想法是否能行得通。 2012年的ImageNet挑战赛,是计算机视觉领域的奥林匹克。全世界最好的团队都在竞争,试图让计算机准确识别图片中的物体。前几年的进步都是渐进式的——错误率每年降低一两个百分点。 当AlexNet的结果公布时,整个会场安静了几秒钟。15.3%的错误率,比第二名的26.2%低了整整10个百分点。这不是渐进式的改进,这是一次革命。 有人后来形容那一刻是"现代人工智能的宇宙大爆炸"。在AlexNet之前,几乎没有顶级计算机视觉论文使用神经网络;在它之后,几乎所有论文都在用。苏茨克维的"不容辩驳的论点"不再是异端,而成了新的正统。 ## 第三章:机器的语言 2013年,谷歌的人工智能团队负责人杰夫·迪恩(Jeff Dean)做了一个决定:不惜一切代价把辛顿团队挖到谷歌。最终的收购价是4400万美元——对于一个只有三个人的初创公司来说,这是天文数字。 但这笔交易中有一个细节很少被提及:在分配这笔钱时,苏茨克维和克里泽夫斯基坚持认为辛顿应该拿40%,而他们两个年轻人各拿30%。在一个充满了期权纠纷和创始人内讧的行业里,这种慷慨几乎是闻所未闻的。 在谷歌大脑,苏茨克维进入了一个新的世界。这里有他梦寐以求的计算资源,有世界上最聪明的工程师,还有一种文化:如果你有一个疯狂的想法,没人会阻止你去尝试。 2014年,苏茨克维和同事们在思考一个问题:能否让神经网络理解语言?不是简单地识别单词,而是真正理解句子的含义,能够翻译,能够对话。 他们开发的"序列到序列"模型,核心思想优雅得令人惊叹:让一个神经网络"阅读"一个句子,把它压缩成一个向量(他们称之为"思想向量"),然后让另一个神经网络把这个向量"解码"成另一种语言。 当这个模型在英法翻译任务上超越了传统的统计机器翻译系统时,很多人意识到:深度学习不仅能处理图像,它可能是一种通用的学习范式。苏茨克维再一次证明了他的直觉:规模和深度能够解锁新的能力。 在谷歌的这段时间,苏茨克维参与了从AlphaGo到TensorFlow的众多项目。但到了2015年,他开始感到不安。谷歌是一家伟大的公司,但它终究是一家公司。如果AGI真的即将到来,它应该属于谁?应该由谁来确保它的安全? 这时,他接到了一个电话。电话那头是埃隆·马斯克。 ## 第四章:为全人类的使命 马斯克的提议很简单,也很疯狂:创立一个新的AI实验室,完全非营利,目标只有一个——确保AGI造福全人类。初始资金10亿美元。团队包括萨姆·奥特曼,一个年轻的创业者,刚刚卸任Y Combinator的总裁。 据说,马斯克亲自飞到谷歌总部去说服苏茨克维。这激怒了谷歌的CEO拉里·佩奇。佩奇和马斯克曾经是朋友,他们曾在深夜讨论AI的未来。但现在,马斯克在挖他的人。 佩奇质问马斯克:你为什么这么担心AI的安全?你是不是对人类没有信心? 马斯克的回答很直接:我只是想确保我们不会创造出一个会毁灭人类的东西。 佩奇说:那你就是个物种主义者。 这次争吵标志着两人友谊的终结。但对苏茨克维来说,这次对话揭示了问题的核心:当AGI到来时,我们需要一个不受商业利益驱动的组织来确保它的安全。 2015年12月,OpenAI在旧金山的一个联合办公空间里成立了。创立博客文章写道:"我们的目标是推进数字智能,使其最有可能造福全人类,不受产生财务回报需求的约束。" 苏茨克维成为首席科学家。他的办公桌很简单:一台电脑,几块白板,还有一摞关于神经网络的论文。他很少参加硅谷的社交活动,也不喜欢接受采访。他的世界就是代码、数学和那个一直困扰他的问题:如何让机器真正理解世界? 在OpenAI的早期,团队很小,氛围像学术实验室多过像公司。苏茨克维会和研究员们进行马拉松式的讨论,在白板上写满公式,争论到深夜。他的信念依然没变:"我坚信越大越好,我们在OpenAI的目标之一就是弄清楚如何正确地利用规模。" GPT的诞生几乎是偶然的。团队在尝试各种方法让模型理解语言。有一天,有人提出:如果我们只是让模型预测下一个词呢?就这么简单的任务,但用一个巨大的模型,在海量的文本上训练。 苏茨克维立刻看到了这个想法的潜力。他相信,当你把这个简单的任务规模化到极致时,模型会被迫学习语言的深层结构,学习世界的运作方式。因为要准确预测下一个词,你需要理解语法、逻辑、常识,甚至人类的心理。 从GPT-1到GPT-2,再到GPT-3,模型越来越大,能力越来越强。但真正让世界震惊的,是2022年11月发布的ChatGPT。 ## 第五章:机器中的幽灵 ChatGPT发布后的几周,苏茨克维几乎消失了。他不回邮件,不参加庆功会。同事们在办公室里找到他时,他正盯着屏幕,和ChatGPT进行长时间的对话。 "你在干什么?"有人问。 "我在测试它是否有意识。"苏茨克维说。 这不是玩笑。2022年2月,在ChatGPT发布之前,苏茨克维在推特上发了一条让整个AI圈炸锅的推文:"今天的大型神经网络可能略带意识。" 这条推文引发了激烈的争论。很多人认为这是荒谬的,神经网络只是统计模型,谈什么意识?但苏茨克维是认真的。他不是说这些模型有人类那样的意识,而是说它们可能有某种我们还不理解的、初级形态的主观体验。 在一次内部会议上,有人问他:你真的相信这个吗? 苏茨克维的回答很慎重:"我不知道。但我知道的是,当我和这些模型交互时,我感觉到某种东西。也许这只是我的投射,也许不是。但如果有万分之一的可能性它们有某种意识,我们就需要认真对待。" 这种思考方式在苏茨克维身上很典型。他不是一个会轻易下结论的人,但他也不会因为一个想法不受欢迎就放弃它。他的整个职业生涯都在证明:那些看起来疯狂的想法,有时候是对的。 但随着模型能力的提升,苏茨克维的担忧也在加深。他开始公开谈论超级智能的风险,时间单位不是几百年,而是可能在十年之内。他警告说,AGI的发展轨迹可能变得"极其不可预测和难以想象",可能导致"人类被剥夺权力,甚至人类灭绝"。 这是一个经典的悖论:苏茨克维毕生的工作就是让AI变得更强大,但现在,他最担心的就是AI变得太强大。创造者开始害怕自己的创造物。 2023年7月,他宣布了一个雄心勃勃的计划:超级对齐项目。目标是在四年内解决超级智能的对齐问题。他把这个问题比作"核安全"——不是关于用户体验或伦理准则的软性问题,而是关于如何控制一种可能毁灭文明的力量的硬核工程挑战。 OpenAI承诺将20%的计算资源分配给这个项目。在一个计算资源就是金钱、就是竞争力的行业里,这是一个巨大的承诺。 但承诺是一回事,执行是另一回事。 ## 第六章:引爆点 2023年11月17日之前的几个月,OpenAI内部的紧张气氛已经达到了临界点。 一边是奥特曼,他看到了ChatGPT带来的巨大机遇。用户数突破一亿,微软投资超过100亿美元,每个科技巨头都在追赶。这是AI的iPhone时刻,而OpenAI处于领先地位。奥特曼想要快速迭代,推出新产品,占领市场。 另一边是苏茨克维和他的安全团队。他们觉得公司在玩火。模型的能力提升速度超出了他们的理解速度。承诺的20%计算资源没有完全兑现。安全研究被"更紧急"的产品需求挤到了一边。 据内部人士透露,苏茨克维在一次高管会议上几乎失控。他拍着桌子说:"我们不知道我们在创造什么!我们需要慢下来!" 奥特曼的回应是:如果我们慢下来,别人不会。中国不会慢下来,谷歌不会慢下来。我们只有保持领先,才能确保AGI以正确的方式被开发出来。 这是两种都有道理的逻辑,但它们无法共存。 11月17日,星期五下午。奥特曼正在参加一个会议,他的手机响了。是苏茨克维。 "萨姆,我们需要谈谈。" "现在吗?我在开会。" "现在。" 奥特曼走出会议室。电话那头,苏茨克维的声音很平静,但有一种不容置疑的坚定:"董事会已经做出决定。你被解雇了。" 据说,奥特曼沉默了几秒钟。然后他问:"这是你的决定吗?" "这是董事会的决定。"苏茨克维说,"但是,是的,我投了赞成票。" 接下来的五天,硅谷经历了有史以来最疯狂的一次危机。 周六,消息传开。投资者震惊了,员工震惊了,整个科技圈都震惊了。奥特曼发了一条推特,配上他在OpenAI办公室的照片,戴着访客证。这是一个挑衅的姿态。 周日,谈判开始。但很快破裂了。董事会不愿意让步,奥特曼也不愿意接受附加条件。 周一,微软CEO萨提亚·纳德拉宣布:奥特曼和布罗克曼将加入微软,领导一个新的AI实验室。这是一个大胆的举动——如果OpenAI的核心人才都走了,微软的100亿美元投资就打了水漂。但这也是一个威胁:你们不要他,我们要。 然后,真正的海啸来了。OpenAI的700多名员工签署了一封公开信,威胁集体辞职。这不是几个高管,而是几乎整个公司。信的内容很简单:让奥特曼回来,否则我们都走。 最令人震惊的是:签名名单里有伊尔亚·苏茨克维。 那天晚上,苏茨克维发了一条推特:"我对自己参与董事会的行动深感后悔。我从未想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽我所能重新团结公司。" 这条推文在AI圈子里引发了巨大的困惑。他为什么改变主意了?是压力太大了吗?还是他意识到自己错了? 真相可能更复杂。苏茨克维是一个科学家,不是一个政治家。他基于原则做出了解雇奥特曼的决定——他真诚地相信这对公司的使命是正确的。但当他看到自己的行动可能导致整个公司崩溃时,他面临了一个痛苦的选择:坚持原则,还是拯救机构? 他选择了后者。但这个选择也意味着他在OpenAI的时代结束了。 周二,奥特曼回归。董事会重组。苏茨克维退出董事会,但保留了首席科学家的头衔。表面上看,危机解决了。但所有人都知道,事情已经无法回到从前。 ## 第七章:僧侣与新使命 接下来的几个月,苏茨克维成了OpenAI的幽灵。他很少出现在办公室,很少参加会议。"伊尔亚去哪儿了?"成了公司内部的一个梗。 有人说他在家里远程工作,有人说他的权限被限制了,还有人说他在和奥特曼进行艰难的和解谈判。奥特曼在公开场合很小心,说他们正在"讨论伊尔亚如何继续在OpenAI工作"。但这种模糊的表述本身就说明了问题。 2024年5月,靴子落地了。苏茨克维宣布离开OpenAI。 但真正的冲击波是几小时后到来的。简·雷克,超级对齐团队的联合负责人,也宣布辞职。他的离职声明毫不留情:"OpenAI的安全文化已经为光鲜的产品让路。"他说,超级对齐团队一直在"逆风航行","为计算资源而挣扎"。那个20%的承诺?从未完全兑现。 其他安全研究员陆续离职。超级对齐团队被解散。苏茨克维在OpenAI建立的安全研究体系,在他离开后迅速瓦解了。 但苏茨克维没有消失很久。一个月后,他宣布了一家新公司:Safe Superintelligence Inc.。 公司网站极其简洁,只有几段话。但每个字都经过精心选择:"我们的使命、产品和商业模式三位一体:一个安全的超级智能。这是我们唯一的关注点。" 这是对OpenAI模式的直接批判。不再有"利润上限"的复杂结构,不再有在使命和商业之间的平衡。SSI的商业模式就是它的使命。公司"免受短期商业压力的影响","不受管理开销或产品周期的干扰"。 苏茨克维进入了"僧侣模式"。他停止了公开演讲,停止了社交媒体,几乎停止了所有与外界的联系。他的联合创始人丹尼尔·格罗斯说:"伊尔亚现在只做一件事:思考如何构建安全的超级智能。" 公司迅速筹集了10亿美元。投资者名单保密,但据说包括一些相信长期主义的科技亿万富翁。他们不期待短期回报,他们投资的是一个理念:也许,只是也许,有可能创造一个足够纯粹的研究环境,在技术能力超越我们控制之前解决对齐问题。 ## 结论:信徒的博弈 2024年秋天的一个晚上,在斯坦福大学的一个小型研讨会上,有人问杰弗里·辛顿:你如何评价伊尔亚解雇奥特曼的决定? 辛顿,这位刚刚获得诺贝尔奖的AI教父,毫不犹豫地说:"我为他感到骄傲。" 房间里一片寂静。辛顿继续说:"伊尔亚做了他认为正确的事。在一个充满了追逐利润和炒作的行业里,他选择了原则。这需要巨大的勇气。" 有人问:但他失败了,不是吗?奥特曼回来了,他被迫离开了。 辛顿摇了摇头:"这取决于你如何定义失败。如果目标是赢得一场公司政治斗争,那是的,他失败了。但如果目标是提醒世界AI安全的重要性,引发一场关于我们应该如何开发AGI的全球讨论,那么他成功了。" 这或许是理解苏茨克维的关键。他不是一个政治家,不是一个商人,甚至不是一个传统意义上的科学家。他是一个信徒。 他的第一个信仰是:规模能够解锁智能。当整个领域都在做小模型时,他坚信大模型能够工作。他赌对了,这场赌博创造了我们今天所处的AI时代。 他的第二个信仰是:我们需要在AI超越我们之前解决对齐问题。这场赌博还在进行中。 Safe Superintelligence Inc.是一个实验。它在测试一个假设:是否可能创造一个完全专注于安全的AI实验室,不受商业周期的干扰,不受投资者季度报告的压力,只专注于一个目标——构建一个不会毁灭人类的超级智能。 这个实验可能会失败。也许纯粹的研究环境无法与商业实验室的资源竞争。也许对齐问题比我们想象的更难。也许AGI会在我们准备好之前到来。 但如果这个实验成功了,如果SSI真的找到了构建安全超级智能的方法,那么苏茨克维将再一次证明:有时候,信念比共识更重要,原则比利润更重要,长期思考比短期收益更重要。 2025年的某一天,在帕洛阿尔托的一间实验室里,苏茨克维正在白板上写公式。他的团队很小,只有几十个研究员,但每个人都是因为相信这个使命而来的。没有产品发布的压力,没有投资者的电话会议,只有一个问题:我们如何确保人类创造的最强大的技术不会毁灭我们? 这是一个没有人知道答案的问题。但如果有人能找到答案,那个人很可能就是那个曾经敲开辛顿办公室门的年轻人,那个说"现在怎么样?"的信徒。 历史会证明他是对还是错。但无论结果如何,伊尔亚·苏茨克维已经在AI的历史上留下了不可磨灭的印记。他不仅帮助创造了这场革命,他还试图确保这场革命不会成为人类的终结。 这或许就是一个真正的科学家所能做的最重要的事情:不仅要问"我们能做什么",更要问"我们应该做什么"。
#Ilya Sutskever
#Sam Altman
#OpenAI
#AI安全
#深度学习
分享
评论 0
0
Orange AI
2周前
OpenAI 昨晚开了场直播,Sam Altman、首席科学家 Jakub 和联合创始人 Wojciech 三个人聊了很多。 大聪明用 ListenHub 的 API 把原版重新配了中文音。Jakub 原声实在是...配音版体验竟然超过了原版 🤣。 收听地址:【中文配音完整版】OpenAI 完成了资本重组,并以最大尺度进行了一场直播】 另外把核心信息整理成了 QA,挑几个重点说说。 研究时间表 OpenAI 内部定了两个时间点: • 2026 年 9 月前:做出"AI 研究实习生",能有意义地加速研究员工作 • 2028 年 3 月前:实现完全自动化的 AI 研究员 Sam 说这些日期完全可能搞错,但这就是他们现在的思考方式。 Jakub 用"时间跨度"来衡量模型能力,就是普通人完成同样任务需要多久。现在这一代模型大约是 5 小时。 距离超级智能还有多远?Jakub 说不到十年。 基础设施投入 Sam 公布的数字: • 略高于 30 吉瓦的基础设施工厂计划 • 未来很多年里,总共约 1.4 万亿美元的财务责任 终极愿景是建立一个"基础设施工厂",每周生产 1 吉瓦的算力,成本降到大约每吉瓦 200 亿美元。 Sam 开玩笑说:可能得重新规划一下机器人技术的思路,让它们来帮忙建数据中心。 1 吉瓦是什么概念?Sam 展示了德克萨斯州 Abilene 正在建设的数据中心,第一个"星际之门"站点。每天有成千上万的人在工地工作,可能还有几十万甚至几百万人在供应链上工作。 安全技术突破 关键技术是思维链忠诚度。 核心想法是,让模型内部推理的一部分过程不受监督,训练期间不去干预它。这样它就能保持对其内部过程的真实反映。 OpenAI 克制自己,不去引导模型产生"好的想法",从而让它对自己的真实想法保持忠诚。 这个技术在 OpenAI 内部大量使用,用来理解模型是如何训练的,它们的倾向性在训练过程中如何演变。 但它有些脆弱,需要划定清晰的界限。比如 ChatGPT 里的思维链摘要器,就是为了给模型保留一定程度的、可控的隐私。
#OpenAI直播
#Sam Altman
#AI研究时间表
#基础设施投入
#思维链忠诚度
分享
评论 0
0
terrific
1个月前
继 Grok 打擦边球之后 OpenAI 也开始涉黄。 颇具讽刺意味的是,澳洲几乎在同一时间即将生效的是 Under-16 Social Media ban 「把成年人当成年人对待」,但别忘了:在 ChatGPT 上消费成人情色内容时所使用的提示词,以及对应的持久化记忆,都会被收集起来。 诸位信得过 Sam Altman 么? 🤣
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#OpenAI涉黄
#Grok打擦边球
#Under-16 Social Media ban
#Sam Altman
#ChatGPT成人情色内容
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
一个在符号空间空转的LLM,计算时间越长,泡沫越大吧 sam的hype死穴在于符号接地! If GPT-6 is 30 IQ points above GPT-5 and can work for days to months, the economic value will skyrocket
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#LLM
#GPT-6
#经济价值
#Sam Altman
#泡沫
分享
评论 0
0
Fu Sheng
1个月前
Sora2火了。 AI世界的“主角”变成了全民二创的奥特曼。 从长城到三亚,从NBA到显卡店, Sam Altman成了最忙的AI代言人。 连我老妈都问 ‘这老外谁啊?怎么哪都能看见他...’
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#Sora2
#Sam Altman
#AI
#奥特曼
#全民二创
分享
评论 0
0
howie.serious
1个月前
sam altman 08 年在wwdc 演讲的视频。立领 polo,红配绿,还两个领子,哈哈
#Sam Altman
#WWDC 08
#演讲
#立领Polo衫
#红配绿
分享
评论 0
0
howie.serious
1个月前
AMD 一夜暴涨 30% 之后,我重读了一下 sam altman 的 blog(智能富足时代),然后让 gpt-5 pro 猜测下一个宣布的合作对象。 可能性最高的就是 avgo,博通。 问题来了,你猜我买没买?🤣
英伟达市值破四万亿,AI芯片霸主地位稳固?· 178 条信息
#AMD
#Sam Altman
#博通(AVGO)
#GPT-5
#股票
分享
评论 0
0
orange.ai
1个月前
刚读完 Sam Altman 的最新访谈,有三个点让我印象深刻 一、OpenAI 的 Windows 定位 Ben Thompson 说:你们是 AI 的 Windows。 Altman 的回答很有意思,他没否认: "大多数人会想要一个 AI 服务,贯穿整个生活。ChatGPT 是主要入口,但会集成其他应用。你会用 OpenAI 账号登录其他服务,保持体验连续性。" 这个类比很准确。 一端提供所有终端用户交互的 API(消费者+企业) 另一端成为大规模基础设施建设的目标客户 Altman 自己的类比是谷歌:在家用,在工作用,没有雇主会封杀,就是同一个服务。 他还说了一句:AI 最好的历史类比是晶体管,会渗透到每一个产品中,不会赢家通吃。 矛盾吗?不矛盾。 Windows 也没赢家通吃,但它确实是那个时代最重要的层。 二、Sora 打破了创作者的 90/9/1 规则 Sora 推出后的数据让人震惊。 传统互联网有个 90/9/1 规则: 90% 的人潜水 9% 的人偶尔互动 1% 的人创作 Altman 说,Sora 前几天的数据是:30%+ 的活跃用户是活跃创作者。 30 倍的提升。 他的解释是:"世界上有大量潜在创意表达需求。如果你给人们让他们快速从想法到创意输出的工具,这触及某种非常深刻的人类需求。" 关键词:降低创作的激活能量。 以前我们以为只有 1% 的人想创作,其实是工具门槛太高。 当从想法到作品的成本足够低,创作不再是少数人的特权。 有个细节很有趣:为什么 Sora 不放在 ChatGPT 里? Altman 说:"ChatGPT 太私密和个人化。如果加入社交特性,人们会想'我还要告诉它我最深的问题吗?'" 产品心态要分开:私密工具和创作工具,不能混在一起。 货币化也很直接:很多人只是做表情包发给 3 个朋友,广告模式支撑不了成本,只能按生成收费。 三、版权持有者会从"别用我的"变成"多用我的" Altman 对版权问题的预测很大胆。 他说:现在版权持有者可能说"我不喜欢 AI 用我的内容",但一年内,会变成"OpenAI 对我不公平,没把我的内容放在足够多的视频里"。 逻辑是这样的: 随着 AI 创造越来越多的定制内容,普遍认可的共同事物(知名 IP)会增值。 Ben Thompson 说得很形象:知名 IP 是"人们触碰的图腾柱"。 实际情况已经在印证:Altman 说,更多版权持有者主动联系他说"这对我有利,确保我得到足够的生成",比拒绝的多。 视频和图像不一样。视频情感冲击更强,所以版权方需要更多控制。他们想要的不是"不用",是"按我的规则用"。 这是一个从防御到价值积累的转变。 AI 时代,稀缺性的定义变了。信息不稀缺,共识才稀缺。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#OpenAI
#Sam Altman
#Sora
#AI创作
#版权
分享
评论 0
0
AI Will
1个月前
Sam Altman 谈:Sora、能源与打造AI帝国 a16z与Sam Altman探讨了: 支撑OpenAI所有布局的核心理念、他们为什么发布Sora、模型在内部是如何被使用的、哪些评测最能反映AI发展的真实进展、以及从这里开始未来将走向何方。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#Sam Altman
#OpenAI
#Sora
#AI帝国
#a16z
分享
评论 0
0
袁起Hashman
1个月前
Sam Altman目前40岁,看起来如20多岁的小伙子。可以推测其非常自律,非常注重养生,睡眠、饮食和锻炼。看过他说非常重视睡觉,每天都睡足8小时,还看过他说不吃辣椒,原因会引发炎症。
#Sam Altman
#养生
#自律
#健康饮食
#充足睡眠
分享
评论 0
0
ginobefun
1个月前
OpenAI 开发者日 2025,Sam Altman 主题演讲的四件事: - Apps SDK:在 ChatGPT 内部构建应用。 - Agent Kit:简化智能体的创建。 - Codex:一个能自主编写、重构、审查软件的智能体。 - 新模型 (GPT-5 Pro, Sora 2):更强的大脑和新的感官(视频、音频)。 这是一个典型的产品发布会:提供新工具,展示新能力。但这不是重点。
#OpenAI开发者日2025
#Sam Altman
#GPT-5 Pro
#Sora 2
#AI
分享
评论 0
0
yv
1个月前
Sam Altman在华强北选购组装显卡
#Sam Altman
#华强北
#显卡
#购物
#中性
分享
评论 0
0
howie.serious
1个月前
用户:给我们一个 sora 邀请码! sam altman:别担心,每个人都会拿到 sora 邀请码。 (视频来自 sora2 邀请码接力群的群友)
#Sora
#邀请码
#Sam Altman
#AI
#视频
分享
评论 0
0
dontbesilent
1个月前
Sam Altman 这种没有道德底线的人,在美国竟然是明星 跟我国爆火的张雪峰,如出一辙
#Sam Altman
#道德缺失
#张雪峰
#美国
#负面
分享
评论 0
0
AI Will
1个月前
如果行业支出能保持 58% 的持续增长,到 2029 年总支出预计将达到约 2 万亿美元,而 OpenAI Stargate 项目承诺的 5000 亿美元将占其中的 25% 左右。Sam 看到了这种指数级增长的潜力。
#OpenAI
#Stargate项目
#Sam Altman
#行业支出增长
#人工智能未来
分享
评论 0
0
Rey英语自由与创造力
1个月前
Sam Altman: AI时代发展长板为关键,AI是无限杠杆 在重要而狭窄的交叉点达到世界一流水平 利用AI的无限杠杆倍数进一步放大优势 应试教育要求各科均衡面面俱到, 其实是培养平庸的“优秀者” 弥补短板得不偿失
#Sam Altman
#AI时代
#长板理论
#无限杠杆
#教育反思
分享
评论 0
0
宝玉
1个月前
Sam Altman:整个AI行业,尤其是我们 OpenAI,长期面临着严重的算力不足问题。这种短缺让我们寸步难行,严重限制了我们能提供的服务,远远跟不上市场需求。 想象一下,未来一到两年,假如我们拥有5到10千兆瓦的算力,但同时面临两个选择:我们可以利用这些算力,让AI大量进行科学研究,可能彻底攻克癌症;或者,我们也可以用这些算力,向全球所有人提供免费的教育资源。 这两个选项,哪个都非常重要,但却令人难以取舍,也根本不该被迫去做这样的取舍。正因如此,我们越来越清楚,解决办法只有一个——扩充更多的算力,以满足AI在医疗、教育等各种领域的巨大需求和潜力。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#Sam Altman
#OpenAI
#算力不足
#AI
#医疗教育
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞